Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Red Interplanetaria Interplanet (IPN) (página 2)



Partes: 1, 2

Según todo esto la posibilidad de que la ciencia
ficción toque a nuestros hogares, está a la vuelta
de la esquina la IPN es el camino a que la primera red con el
planeta rojo se haga realidad o que el láser de
transmisión de señales a alta velocidad se ponga en
uso así como varias antenas de comunicación sean
instaladas en planetas, satélites y asteroides y con esto
estar en contacto permanente con la tierra, el resultado de
tecnología y ciencia ficción al servicio de los
seres humanos y de soñadores que como nosotros lo pueden
hacer realidad.

Marco
teórico

1.1. Redes de computadoras

Una red de ordenadores es un conjunto de equipos que
pueden almacenar y procesar datos electrónicos,
interconectados de forma que sus usuarios pueden almacenar,
recuperar y compartir información con los demás.
Las máquinas conectadas pueden ser, microordenadores,
miniordenadores, grandes ordenadores, terminales, impresoras,
dispositivos de almacenamiento, cámaras, entre otros. En
una red de ordenadores se puede almacenar cualquier
información, incluyendo textos, imágenes, mensajes
de voz e imágenes visuales como por ejemplo fotos y
vídeos.

1.2. Protocolo de Redes

El Protocolo de red o también Protocolo de
Comunicación es el conjunto de reglas que especifican el
intercambio de datos u órdenes durante la
comunicación entre las entidades que forman parte de una
red.

1.3. Internet

Internet es un método de interconexión
descentralizada de redes de computadoras implementado en un
conjunto de protocolos denominado TCP/IP y garantiza que redes
físicas heterogéneas funcionen como una red
lógica única, de alcance mundial. Sus
orígenes se remontan a 1969, cuando se estableció
la primera conexión de computadoras, conocida como
ARPANET, entre tres universidades en California y una en Utah,
EE. UU.

Al contrario de lo que se piensa comúnmente,
Internet no es sinónimo de World Wide Web (WWW, o "la
Web"). Ésta es parte de Internet, siendo uno de los muchos
servicios ofertados en la red Internet. La Web es un sistema de
información mucho más reciente, desarrollado
inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet
como medio de transmisión.

Monografias.com

Algunos de los servicios disponibles en Internet, aparte
de la Web, su versión evolucionada Web 2.0 y los
sistemas operativos web (WebOS, EyeOS), son el acceso remoto a
otras máquinas (SSH y telnet), la transferencia de
archivos (FTP), el correo electrónico (SMTP y POP), los
boletines electrónicos (news o grupos de noticias), las
conversaciones en línea (IRC y chats), la
mensajería instantánea, la compartición de
archivos (P2P, P2M, Descarga Directa), la radio a la carta
(Podcast), el visionado de video a la carta (P2PTV, Miro, Joost,
Videocast) y los juegos en línea.

1.4. Internet: un poco de historia.

La historia de Internet comienza realmente en el
año 1962. Las pocas computadoras de esa época
tenían memorias de núcleos magnéticos con
capacidad para almacenar unos pocos miles de caracteres. Los
programadores, sin embargo las componían para hacer rendir
con enorme ingenio a esos pocos caracteres, por ejemplo,
procesando modelos de simulación y de programación
lineal en una computadora tal como la IBM

1401 que fue pensada para ser simplemente una impresora
y que justamente se caracterizaba por tener originalmente 1400
posiciones de memoria. El mundo de las comunicaciones estaba en
ese entonces en manos de IT&T. Existía en esa
época un proyecto estratégico del DOD, Department
of Defense, Departamento de Defensa de los Estados Unidos
denominado ARPA por Advanced Research Projects Agency, Agencia
para Proyectos de Investigación Avanzada. Clasificado a su
vez como proyecto de alto riesgo y de incalculables beneficios,
sienta las bases de la red ARPA o ARPANET, la cual mucho
más tarde se convertiría en Internet.

En 1992, 30 años más tarde:

Monografias.comInternet tenía un millón de
computadoras conectadas. Monografias.comARPANET ya no existía.

Monografias.comLos computadores eran más
rápidos en nueve órdenes de magnitud- Los anchos de
banda eran 20 millones más grandes.

Marco
referencial

2.1. Antecedentes

2.1.1. La exploración espacial y los programas
de la NASA.

El Programa espacial soviético lanzó el
primer satélite artificial del mundo (Sputnik 1) el 4 de
octubre de 1957. El Congreso de los Estados Unidos lo
percibió como una amenaza a la seguridad y el Presidente
Eisenhower y sus consejeros, tras varios meses de debate, tomaron
el acuerdo de fundar una nueva agencia federal que dirigiera toda
la actividad espacial no militar.

El 29 de julio de 1958 Eisenhower firmó el Acta
que funda la NASA (Administración Nacional de
Aeronáutica y del Espacio, en inglés: National
Aeronautics and Space Administration) la cual empezó a
funcionar el 1 de octubre de 1958 con cuatro laboratorios y unos
8.000 empleados.

La intención de los primeros programas era poner
una nave tripulada en órbita y ello se realizó bajo
la presión de la competencia entre los EE.UU. y la URSS en
la denominada Carrera espacial que se produjo durante la Guerra
Fría.

El 25 de mayo de 1961 el Presidente John F. Kennedy
anunció que Estados Unidos debía comprometerse a
"aterrizar a un hombre en la Luna y devolverlo sano y salvo a la
Tierra antes del final de la década", para lo cual se
creó el Programa Apollo. El Programa Gemini fue concebido
para probar las técnicas necesarias para el Programa
Apollo, cuyas misiones eran mucho más
complejas.

Comenzó con el Gemini 3 el 21 de marzo de 1965 y
acabó con el Gemini 12 el 11 de noviembre de
1966. Edward White, quien posteriormente murió en el
accidente del Apollo 1, hizo con el Gemini 4 el 3 de junio
de 1965 la primera caminata espacial de un
estadounidense. El 15 de diciembre de 1965 los
Gemini 6 y 7, tripulados por dos astronautas cada uno, hicieron
su primera cita espacial aproximando las naves hasta
1,8 m. El vuelo del Gemini 7 tuvo una duración de
dos semanas, tiempo que se estimó necesario para las
misiones Apollo. El 16 de marzo de 1966 la nave
Gemini 8 tripulada por David Scott y Neil Armstrong, que luego
sería el primer hombre en pisar la Luna, atracaron su nave
al cohete Agena 8 preparando la maniobra de atraque entre el
módulo lunar y la nave Apollo.

Durante los ocho años de misiones preliminares la
NASA tuvo la primera pérdida de astronautas. El Apolo 1 se
incendió en la rampa de lanzamiento durante un ensayo y
sus tres astronautas murieron. El Programa Apolo logró su
meta con el Apolo 11 que aterrizó con Neil Armstrong y
Edwin E. Aldrin en la superficie de la Luna el 20 de julio
de 1969 y los devolvió a la Tierra el 24 de
julio. Las primeras palabras de Armstrong al poner el pie sobre
la Luna fueron: Éste es un pequeño paso para un
hombre, pero un gran salto para la humanidad.

Diez hombres más formarían la lista de
astronautas en pisar la Luna cuando finalizó el programa
anticipadamente con el Apolo 17, en diciembre de 1972, cuyo
resultado fue además de la recogida de muestras de
regolito, la instalación de equipos de estudio
superficiales ALSEP que aún continúan enviando
información.

La NASA había ganado la carrera espacial y, en
algún sentido, esto la dejó sin objetivos al
disminuir la atención pública capaz de garantizar
los grandes presupuestos del Congreso. Ni la casi trágica
misión del Apolo

13, donde la explosión de un tanque de
oxígeno casi costó la vida a los tres astronautas y
les obligó a renunciar a pisar la Luna, pudo volver a
atraer la atención. Las misiones posteriores al Apolo 17
(estaban planificadas varias misiones más, hasta el Apolo
20) fueron suspendidas. Los recortes del presupuesto, debidos en
parte a la Guerra de Vietnam, provocaron el fin del programa. Los
tres Saturno V no

utilizados se usaron para el desarrollo del primer
laboratorio estadounidense en órbita, el Skylab, y las
ideas fueron en la línea de desarrollar un vehículo
espacial reutilizable como el transbordador espacial. Poco
conocido es el proyecto AAP (Apollo Applications Program), que
debía ser el sustituto de las misiones Apolo, o el LASS,
destinado a establecer una base habitada en la superficie del
satélite.

Aunque la inmensa mayoría del presupuesto de NASA
se ha gastado en los vuelos tripulados, ha habido muchas misiones
no tripuladas promovidas por la agencia espacial.

En 1962 el Mariner 2 fue la primera nave espacial en
hacer un sobrevuelo cercano a otro planeta, en este caso Venus.
Los programas Ranger, Surveyor y Lunar Orbiter eran esenciales
para evaluar las condiciones lunares antes de intentar el vuelo
tripulado del programa Apolo. Posteriormente, las dos sondas
Viking que aterrizaron en la superficie de Marte enviaron a la
Tierra las primeras imágenes de la superficie del planeta.
Quizá las misiones no tripuladas más impresionantes
fueron los programas Pioneer 10, Pioneer 11, Voyager 1 y Voyager
2, misiones que visitaron Júpiter, Saturno, Urano y
Neptuno y enviaron impresionantes imágenes en color de
todos ellos y la mayoría de sus
satélites.

El Transbordador espacial se convirtió en el
programa espacial favorito de la NASA a finales de los
años setenta y los años ochenta. Planeado tanto los
dos cohetes lanzadores y el transbordador como reutilizables, se
construyeron cuatro transbordadores. El primero en ser lanzado
fue el Columbia el 12 de abril de 1981.

Pero los vuelos del transbordador eran mucho más
costosos de lo que inicialmente estaba proyectado y,
después que el desastre del Transbordador Espacial
Challenger en 1986 resaltó los riesgos de los vuelos
espaciales, el público recuperó el interés
perdido en las misiones espaciales.

No obstante, el transbordador se ha usado para poner en
órbita proyectos de mucha importancia como el Telescopio
Espacial Hubble (HST). El HST se creó con un presupuesto
relativamente pequeño de

2.000 millones de dólares, pero ha continuado
funcionando desde 1990 y ha maravillado a los científicos
y al público. Algunas de las imágenes han sido
legendarias, como las imágenes del denominado Campo
Profundo del Hubble. El HST es un proyecto conjunto entre la ESA
y la NASA, y su éxito ha ayudado en la mayor
colaboración entre las agencias.

En 1995 la cooperación ruso-estadounidense se
lograría de nuevo cuando comenzaron las misiones de
acoplamiento entre el Transbordador y la estación espacial
Mir, (en ese momento la única estación espacial
completa). Esta cooperación continúa al día
de hoy entre Rusia y Estados Unidos, los dos socios más
importantes en la construcción de la ISS. La fuerza de su
cooperación en este proyecto fue más evidente
cuando la NASA empezó confiando en los vehículos de
lanzamiento rusos para mantener la ISS tras el desastre en 2003
del Columbia que mantendrá en tierra la flota de los
transbordadores durante más de un año.

Costando más de cien mil millones de
dólares, ha sido a veces difícil para la NASA
justificar el proyecto ISS. La población estadounidense ha
sido históricamente difícil de impresionar con los
detalles de experimentos científicos en el espacio.
Además, no puede acomodar a tantos científicos como
había sido planeado, sobre todo desde que el transbordador
espacial está fuera de uso, hasta marzo de 2005,
deteniendo la construcción de la ISS y limitando su
tripulación a una de mantenimiento de dos
personas.

Durante la mayoría de los años 1990 la
NASA se enfrentó con una reducción de los
presupuestos anuales por parte del Congreso. Para responder a
este reto, el noveno administrador de la NASA, Daniel
S.

Goldin, inventó misiones baratas bajo el lema
más rápido, más bueno, más barato que
le permitió a la NASA que recortara los costos mientras se
emprendían una ancha variedad de programas aerospaciales.
Ese método fue criticado y llevó en 1999 a las
pérdidas de las naves gemelas Climate Orbiter y Mars Polar
Lander de la exploración de Marte.

Probablemente la misión con más
éxito entre el público en los últimos
años (1997) ha sido la de la sonda Mars Pathfinder. Los
periódicos de todo el mundo llevaron las imágenes
del robot Sojourner, desplazándose y explorando la
superficie de Marte. Desde 1997 la Mars Global Surveyor ha
orbitado Marte con un éxito científico innegable.
Desde 2001 el orbitador Mars Odyssey ha estado
buscando evidencia de agua en el planeta rojo, en el pasado o en
el presente, así como pruebas de actividad
volcánica.

En 2004 una misión científicamente
más ambiciosa llevó a dos robots, Spirit y
Opportunity, a analizar las rocas en busca de agua, por lo que
aterrizaron en dos zonas de Marte diametralmente opuestas y
parece que encontraron vestigios de un antiguo mar o lago
salado.

El 14 de enero de 2004, diez días después
del aterrizaje de Spirit, el Presidente George W. Bush
anunció el futuro de la exploración espacial. La
humanidad volverá a la Luna en 2020 como paso previo a un
viaje tripulado a Marte.

El Transbordador espacial se retirará en 2010 y
será reemplazado en

2014 por el Crew Exploration Vehicle, capaz de atracar
en la ISS y dejar la órbita de la Tierra. El futuro del
ISS es algo incierto, tras la explosión del Columbia el 1
de febrero de 2003, y el patrón de los vuelos del
Transbordador. La construcción se completará, pero
el futuro de las próximas misiones es incierto.

2.1.2. Orbitador de Telecomunicaciones de
Marte

La NASA planea establecer algo que se le llama "El
Internet Interplanetario" con el lanzamiento del Orbitador de
Telecomunicaciones de Marte (OTM) en el año 2009. El
dispositivo espacial tendrá previsto llegar a la
órbita sobre Marte en el 2010 y será usado para
enviar paquetes de datos a la Tierra desde dispositivos sobre la
superficie de Marte y de otros que se encuentren
orbitándolo, por un período de más de 10
años y con una extremadamente alta tasa de transferencia.
Se ha pensado en este satélite de comunicaciones dedicado
debido a la vasta cantidad de información
científica que deberá ser enviada a la Tierra tal
como la del Laboratorio de Ciencia de Marte en la superficie del
planeta. Sin embargo, el 21 de julio del 2005, se anunció
que el OTM fue cancelada debido a la necesidad de apoyar otros
objetivos a corto plazo, incluyendo, una misión de
mantenimiento del Hubble, operaciones de la misión
extendida de los vehículos de exploración espacial
de Marte, asegurando que el Laboratorio de Ciencia de Marte pueda
volar en el 2009, y para salvar de la
cancelación a una misión de ciencia de
la

Tierra, llamada Glory.

2.1.3. Vinton "Vint" G. Cerf.

Mejor conocido como Vinton Cerf, es un científico
de la computación estadounidense, considerado como uno de
los 'padres' de la Internet. Nacido en Connecticut (Estados
Unidos) en 1943, se graduó en Matemáticas y
Ciencias de la Computación en la universidad de Stanford
(1965). Durante su estancia posterior en la Universidad de
California (UCLA) obtuvo el Máster en Ciencia y el
Doctorado.

A principios de los años 70 comenzó a
trabajar con Robert Kahn en el desarrollo de un conjunto de
protocolos de comunicaciones para la red militar ARPANET
financiado por la agencia gubernamental DARPA. El objetivo era
crear una "red de redes" que permitiera interconectar las
distintas redes del Departamento de Defensa norteamericano,
todas ellas de diferente tipo y funcionando sobre
diferentes sistemas operativos, con independencia del tipo de
conexión: radioenlaces, satélites y líneas
telefónicas.

Las investigaciones, lideradas por Vinton Cerf, primero
desde la Universidad de California (1967-1972) y posteriormente
desde la Universidad de Stanford (1972-1976), llevaron al
diseño del conjunto de protocolos que hoy son conocidos
como TCP/IP (Transmission Control Protocol/Internet Protocol),
que fue presentado por Vinton Cerf y Robert Kahn en
1972).

Entre 1976 y 1982, trabajando en DARPA, fue pionero en
el desarrollo de la transmisión por radio y
satélite de paquetes, responsable del proyecto Internet y
del programa de investigación de seguridad en la red.
Siempre preocupado por los problemas de conexión de redes,
Cerf estableció en 1979 la Internet Configurarion Control
Board (que posteriormente se denominó Internet Activities
Board) y fue su primer presidente.

Entre 1982 y 1986, Cerf diseñó el MCI
MAIL, primer servicio comercial de correo electrónico que
se conectaría a Internet.

En 1992 fue uno de los fundadores de la Internet Society
y su primer presidente.

Actualmente Vinton Cerf es el Chief Internet Evangelist
de Google, ocupación que compagina con el cargo de
presidente del ICANN, también es miembro del Comité
de Asesoramiento de Sistemas de Datos Espaciales.

Lideró el inicio del "Internet Interplanetario"
con Dr. Adrian Hooke en el Laboratorio de Propulsión a
Chorro (JPL, en inglés) de la NASA con el cual aún
siguen sus investigaciones.

Monografias.com

2.1.4 Internet Terrestre

En la actualidad la Internet actual está formada
por una estructura mayoritariamente cableada a pesar de que cada
vez más se hace uso de tecnologías
inalámbricas. Aún así, hoy en día,
está basada in infraestructuras cableadas. La razón
de predominancia de este tipo de estructuras ha sido ha sido el
número de ventajas que ofrecen sobre las
inalámbricas.

Estas redes son capaces de proporcionarnos enlaces punto
a punto mediante conexiones que producen poca latencia en
transferencia de mensajes en comparación con las
comunicaciones inalámbricas a grandes distancias,
así como hasta ahora, seguridad y fiabilidad.

2.1.5 Internet "más
allá"

Si se quiere llevar Internet más allá de
las "fronteras" fronteras establecidas actualmente, deberemos ser
capaces de adaptar los medios actuales para llevar a cabo esa
expansión. Para ella, debemos analizar el tipo de
dispositivos que se van a utilizar, sus características y
el medio en el que van a situar.

Obviamente estamos hablando de comunicaciones
inalámbricas entre nodos que pueden estar o no disponibles
en un determinado intervalo de tiempo y que a su vez van a estar
muy distanciados entre sí. Además estos nodos van a
tener una alimentación de energía limitada y es una
de las limitaciones que más van a restringir el
diseño de los sistemas de comunicación.

Las limitaciones que nos vamos a encontrar ante la
naturaleza de estas comunicaciones serán, por lo tanto:
retrasos en la comunicación entre dos puntos, una mayor
tasa de errores a las que estamos acostumbrados, conectividad
punto a punto debido a que las partes no siempre van a estar
disponibles, tasas de envío asimétricas, y la
adaptación de mecanismos de calidad de servicio,
fiabilidad, direccionamiento.

Por lo tanto, igual que necesitamos agentes que sirvan
de enlace para unir redes incompatibles aquí en las redes
que conocemos, también necesitaremos agentes capaces de
unir las redes actuales con una red interplanetaria.

2.2 EL INTERNET INTERPLANETARIO
(IPN).

En 1998, la agencia de Investigación de proyectos
avanzados del ministerio de defensa de los Estados Unidos, DARPA
(US Defense Advanced Research Projects Agency), dentro de su plan
para la siguiente generación de Internet, fundó un
grupo de investigación en la NASA con el objetivo de
estudiar los aspectos técnicos para formar una Internet
interplanetaria.

La idea de este grupo era usar las técnicas que
ya se habían desarrollado en la Internet actual para crear
estándares que pudiesen ser utilizados por las distintas
agencias para una comunicación interplanetaria. Sus
objetivos fueron los siguientes:

i. Usar protocolos actualmente usados en Internet o para
formar distintos tipo de redes para poder crear redes en entornos
con pocos retardos de transmisión y con relativamente poco
ruido.

ii. Crear "backbones" en el espacio capaz de comunicar
en muy largas distancias con el objetivo de interconectar las
redes mencionadas anteriormente.

iii. La Internet resultante sería
por lo tanto una red de Internets.

En esta nueva Internet Interplanetaria se haría
uso de un nuevo protocolo, el protocolo de mensaje ("bundling")
capaz de "unir" estas redes de naturaleza heterogénea
entre sí.

La IPN Trata un conjunto de nodos flotantes en el
espacio que se pueden comunicar unos con otros. Pero, a causa de
los retrasos de la velocidad de la luz en distancias
interplanetarias, aproximadamente de

20 segundos, el IPN necesita un nuevo conjunto de
protocolos y tecnología que san tolerantes a grandes
retrasos. Por otro lado, el Internet como lo conocemos hoy
día, tiende a ser una "red de redes" muy ocupada y con
tráfico alto, con demoras y errores insignificantes y
además posee un Backbone alámbrico, el Internet
Interplanetario es una red
"almacenamiento-y-reenvío" de Internets que a menudo se
desconecta, con un "backbone inalámbrico" cargado de
conexiones propensas a error, y demoras con rangos de retrasos
que van desde decenas de minutos, incluso horas, aún
cuando hay una conexión.

Viendo las comunicaciones de espacio desde la
perspectiva histórica, ha habido una evolución
constante de una costosa arquitectura punto a punto única
en su tipo, a la tecnología reutilizable en misiones
sucesivas, al desarrollo de protocolos uniformes acordados por
las agencias del Espacio de muchos países. Esta
última fase se ejecuta desde que 1982 por los esfuerzos de
El Comité Consultivo para Sistemas de Datos de Espacio
(CCSDS), un cuerpo compuesto por la mayoría de agencias
del espacio del mundo. Este cuenta con diez agencias miembro,
veintidós agencias observadoras, y más de 100
socios industriales.

La evolución de estándares de sistema de
datos del espacio ha ido en paralelo con la evolución del
Internet, con polinización cruzada conceptual donde es
fructífero, pero a un grado grande, como una
evolución separada. Desde que el final de la década
de los noventa, los protocoles familiares de Internet y los
protocolos CCSDS de vínculo espacial se han integrado y
han convergido en varias maneras, por ejemplo, la transferencia
exitosa de archivos del FTP al Orbitador de la Tierra STRV-1b el
2 de enero de 1996. El uso del Protocolo de Internet sin CCSDS ha
sido demostrado también en naves espaciales, por ejemplo
el satélite UoSAT-12 y la Constelación de Monitoreo
de Desastres. Habiendo alcanzado la era donde la IP a bordo de
una nave espacial, y IP o las Especificaciones de Protocolo de
comunicaciones de Espacio similares a IP (SCPS) para saltos
cortos, ha mostrado ser factible, un estudio de estimaciones
futuras de la idea global fue la siguiente fase.

El estudio de Internet Interplanetario en el Laboratorio
de Propulsión a Chorro de la NASA (JPL, en
inglés) fue empezado por un equipo de
científicos dirigido por Vinton Cerf y Adrian Hooke.
El Dr. Cerf es uno de los pioneros del Internet en la Tierra, y
tiene actualmente la posición de científico
visitante distinguido en el JPL. El Señor. Hooke es uno de
los directores del CCSDS.

Mientras que los protocolos SCPS similares al IP son
factibles para saltos cortos, tal como una estación en la
superficie a un orbitador, un explorador a un aterrizador, un
aterrizador a un orbitador, una sonda, etcétera. Una red
tolerante a retrasos (DTN, Delay Tolerant Network), que
es prácticamente donde esta recargada la esencia del
proyecto, es necesitada para conseguir información de una
región del sistema solar a otra. Se hace manifiesto que el
concepto de una "región" es una factorización
arquitectónica natural del Internet
Interplanetario.

Una "región" es un área donde las
características de comunicación son la misma. Las
características de una región incluyen
comunicaciones, seguridad, conservación de recursos,
quizás propiedad, y otros factores. El Internet
Interplanetario es una "red de internet regionales".

Lo que se necesitada entonces, es una manera
estándar para lograr comunicación punto a punto por
múltiples regiones en un ambiente desconectado, de
variable demoras que utilice una serie generalizada de
protocolos. Ejemplos de regiones pueden incluir el Internet
terrestre como una región, una región en la
superficie de la luna o Marte, o una región superficie a
órbita.

El reconocimiento de este requisito llevó al
concepto de un "paquete" como una manera de alto nivel para
dirigir el generalizado problema almacenamiento-y-reenvío.
Los paquetes son un área de nuevo desarrollo de protocolo
en las capas superiores del modelo de OSI, encima de la Capa de
Transporte con la meta de dirigir el asunto de empaquetar la
información de almacenamiento-y-reenvío para que
pueda atravesar con seguridad los ambientes radicalmente
diferentes que constituyen "la red de internet
regionales".

La capa de servicio de empaquetado, implementado como la
suite de protocolo de Empaquetamiento, proporcionará los
servicios de protocolo tolerante a demoras de propósito
general como soporte a una gama de aplicaciones: transferencia de
custodia, segmentación y re-ensamblaje, aseguramiento de
punto a punto, seguridad de punto a punto, y enrutamiento de
punta a punta entre ellos.

Un ejemplo de una de esas aplicaciones punto-a-punto
volando en una misión espacial es CFDP, utilizado en la
misión de cometa, Impacto Profundo. CFDP es el protocolo
de Entrega de Archivo de CCSDS un estándar internacional
para la transferencia automática y segura de archivo en
ambas direcciones. CFDP no debe ser confundido con el Protocolo
de Distribución Coherente de Archivo, que tiene
desafortunadamente las mismas siglas y es un protocolo
experimental IETF-Documentado para entrega rápida de
archivos a múltiples objetivos en un ambiente de red
alto.

Además de copiar con seguridad un archivo de una
entidad (i. E. una nave espacial o una estación en la
superficie) a otra entidad, el CCSDS CFDP tiene la capacidad de
transmitir con confiabilidad, pequeños mensajes
arbitrarios definidos por el usuario, en los metadatos que
acompañan el archivo, y también la
transmisión segura de comandos relacionados a la
administración de archivos de sistema que serán
ejecutados automáticamente en la entidad remota de punto
final (i. E., una nave espacial) luego de la recepción
exitosa de un archivo.

El grupo inactivo de intereses especiales del Internet
Interplanetario de la Sociedad de Internet ha trabajado en
definir protocolos y estándares que harían el IPN
posible. El grupo de Investigación de la red tolerante a
demoras (DTNRG) es el investigador primario la cual tiene varias
arenas mayores de aplicación además del Internet
Interplanetario, incluyendo comunicaciones tácticas
enfatizadas, redes de sensores, recuperación de desastres,
ambientes hostiles, y puestos avanzados remotos. Como
un ejemplo de puestos avanzados remotos imagínese
una aldea ártica aislada o una isla lejana, con
electricidad, y una o más computadoras pero ninguna
conectividad de comunicación. Con la adición de un
punto inalámbrico sencillo en la aldea, más
dispositivos DTN-Habilitados, digamos, trineos de perro o barcos
pesqueros, un residente podría verificar su correo
electrónico o hacer clic en un artículo de
Wikipedia, y tener sus pedidos enviados a la ubicación con
red más cercana y en la visita del próximo trineo o
barco, obtener sus pedidos.

Hasta el 2005, la NASA ha cancelado los planes para
lanzar el Orbitador de Telecomunicaciones de Marte en septiembre
2009; con la meta de dar soporte a misiones futuras secundarias a
Marte y podrían funcionar como un primer concentrador
definitivo posible de Internet alrededor de otro cuerpo
planetario.

2.2.1 SOBRE EL PROYECTO.

El objetivo del proyecto Interplanetario del Internet es
de definir la arquitectura y hacer un protocolo necesario para
permitir interoperación del residente del Internet en la
Tierra con otro residente remotamente localizado de internet en
otros planetas o la nave espacial en tránsito. Mientras el
Internet de la Tierra es básicamente una "la red de redes
conectadas", el Internet Interplanetario puede por lo tanto ser
pensado como una "red de Internet desconectados". Trabajar en
este ambiente requerirá nuevas técnicas para ser
desarrolladas.

Muchos elementos de la serie terrestre actual del
Internet de protocolos son esperados ser útil en ambientes
de espacio de bajo-demora, las operaciones tal como locales en y
alrededor de otros planetas o dentro de volar libre
vehículos espaciales. Sin embargo, las demoras de la
velocidad de la luz, conectividad, y característica de
error-valora intermitente y unidireccional de comunicación
de espacio interplanetario hacen su uso irrealizable a
través de distancias de espacio
interplanetario.

Es anticipado también que la arquitectura y
protocolos desarrollados por este proyecto serán
útiles en muchos ambientes terrestres en los que una
dependencia en el tiempo real comunicación
recíproca es o irrealizable o desaconsejable.

El IPNSIG (Interplanet Special Interest Group) existe
para permitir la participación pública en la
evolución del Internet Interplanetario. La
investigación técnica en cómo el Internet de
la Tierra puede ser extendido en el espacio interplanetario ha
estado en camino durante varios años como parte de un
cuerpo internacional de la estandarización de
comunicaciones conocido como el Comité Consultivo para
Sistemas de Datos de Espacio (CCSDS).

El comité del IPNSIG es formado por: Stephen
Farrell, Leigh Torgerson, Scott Burleigh, Eric Travis and Bob
Durst, Vint Cerf, Adrian Hooke, entre otros.

La organización de CCSDS es concernida
principalmente con la estandarización de comunicaciones
para satélites científicos, con un foco primario en
las necesidades de misiones de cerca de-término. Para
extender este horizonte fuera varias décadas, y para
comenzar a implicar la investigación terrestre del
Internet y la ingeniería las comunidades, un Estudio
Interplanetario especial del Internet fue propuesto y fue
financiado subsiguientemente en los Estados Unidos.

El Estudio Interplanetario del Internet es financiado
por DARPA (La Agencia de Investigación de Proyectos
Avanzados de Defensa), y actualmente consiste en un equipo del
centro de investigadores del Laboratorio de Propulsión por
Reacción de la NASA, la Corporación de MITRA,
ESPARTA, la Ciencia Global & la Tecnología e
investigadores consultores del USC/ISI, UCLA y CalTech. La meta
primaria del estudio es de investigar protocolos cuán
terrestres de internet y las técnicas pueden ser
extendidas y/o utilizado a como-yo en la exploración de
espacio interplanetario. El equipo del estudio tiene
también fundado el IPNSIG y ha formado el
centro de un IPNRG bajo el patrocinio del grupo de trabajo de
Investigación de Internet.

La meta primaria del equipo del Estudio de NASA IPN
será de actuar como el enlace entre las comunidades de
satélite y espacio y las comunidades de ISOC/IRTF. El
equipo del Estudio de NASA IPN ayudará con requisitos y
ayuda con la comprensión del ambiente de espacio
interplanetario y misiones, mientras la investigación
primaria en protocolos nuevos o modificados será realizada
por el IRTF. Además, el Equipo del Estudio de NASA
actuará como también el enlace con el Comité
Consultivo para Sistemas de Datos de Espacio.

El Equipo del Estudio de NASA permitirá
también las oportunidades simuladas y verdaderas a probar
protocolos y el uso de técnicas de Internet en el ambiente
del espacio.

2.2.2 EL GRUPO DE INVESTIGACION DE LA
RED TOLERANTE A RETRASOS (DTNRG).

El DTNRG es un grupo de investigación que forma
parte del IRTF (Grupo de Tareas de Investigación sobre
Internet) el cual pertenece al grupo Internet Society. Este grupo
tiene a cargo la arquitectura y los protocolos que
permitirán la comunicación e interoperabilidad en
ambientes donde la conectividad continua end-to-end no
puede ser asumida. Dicho de otra forma, están encargados
de interconectar redes altamente heterogéneas aunque puede
que nunca llegase a existir una conectividad end-to-end.
Algunos ejemplos de estos ambientes incluyen naves espaciales,
militares y tácticas, algunas formas de responder a
desastres, bajo el agua y algunas formas de redes
ad-hoc. También puede incluir conectividad de
internet en lugares donde el desempeño puede ser afectado
por lugares inhóspitos e inalcanzables de la
tierra.

Este grupo investiga aspectos de redes tolerantes al
retraso en muchas formas como publicaciones académicas,
desarrollo y especificaciones

Monografias.com

de estándares, varias listas de correo activas
para intercambiar conocimiento y desarrollo de
código.

2.2.3 ARQUITECTURA DE LA RED TOLERANTE A
RETRASOS (RFC 4838).

2.2.3.1 Estructura de
capas

Los mensajes que enviamos a través de Internet
son sometidos a distintas capas de protocolos. Las distintas
capas procesan el mensaje recibido de la capa anterior de tal
manera que se crea una jerarquía en los mensajes donde el
mensaje en cada eslabón es interpretado por el actor
correspondiente.

En la Internet, normalmente nos encontramos con las
siguientes capas:

Ø Capa
Aplicación:

Genera y consume datos de
usuario.

Ø Capa Transporte:

Segmentación de los mensajes de
origen a destino. reensamblado, control errores, control de
flujo.

Ø Capa de Red:

Direccionamiento de los mensajes. Con
fragmentación y reensamblado si se requiere.

Ø Capa de Enlace:
Transmisión enlace a enlace de las piezas.

Ø Capa Física:
Transmisión de flujo de bits de enlace a
enlace.

2.2.3.2 Por qué

una Red Tolerante a Retrasos (DTN, Delay
Tolerant

Network)?

Las redes "interplanetarias" se
caracterizan por:

§ Conexiones intermitentes:

No siempre los nodos van a estar visibles los unos con
los otros. Los objetos en el espacio están en movimiento,
tanto los emisores como los receptores, así mismo como
otros objetos o planetas. Cualquier elemento se podría
poner en la trayectoria de la comunicación.

Además, debido a las limitaciones de
energía, no todos los nodos están accesibles
permanentemente por lo que su conexión con el siguiente
nodo se programa previamente o bien, si este segundo nodo
está permanentemente conectado, enviará datos en la
medida en que pueda enviarlos.

Estos problemas de intermitencia en la disponibilidad
hacen que se implementen mecanismos de almacenamiento de los
mensajes hasta que puedan ser enviados, ya que la naturaleza de
las comunicaciones hace que no se deban descartar mensajes con la
relativa facilidad con la que se hace en las redes terrestres sin
requerimientos especiales

§ Retrasos largos o
variables:

Las comunicaciones pueden tener un destino muy lejano al
origen. Incluso, un origen y un destino determinado no se
encuentran siempre a la misma distancia uno de otro.

§ Flujo de datos
asimétrico:

Dado que el envío de datos en largas distancias,
con limitación de energía y con varias otras
limitaciones es muy costoso, se limita al máximo los datos
enviados. Generalmente suelen ser, de momento, envío de
instrucciones

hacia un extremo y envío de información
masiva hacia el otro

(por ejemplo los „Rover? que están
explorando Marte).

§ Alta tasa de fallos:

Debido a las limitaciones técnicas, de potencia,
a largas distancias, alto número de interferencias
electromagnéticas, la tasa de fallos en las comunicaciones
es elevada. Así, se implementan mecanismos de
detección y corrección de errores.

2.2.3.3 Almacenamiento y
reenvío

El almacenamiento y reenvío se establece como
sistema para evitar una serie de problemas inherentes a la
naturaleza de este tipo de comunicaciones, a saber:

§ Retrasos largos o
variables:

Los nodos consecutivos en el camino pueden no estar
visibles entre ellos durante largos periodos de
tiempo.

§ Tráfico
asimétrico:

Habrá nodos que puedan transmitir más
rápidamente que otros. Así, se necesitarán
mecanismos para poder almacenar los mensajes para su posterior
envío de tal modo que no se produzca ninguna
pérdida de datos.

§ Alta tasa de fallos:

En el medio en el que se transmite el mensaje así
como las largas distancias que tienen que atravesar, existe una
alta probabilidad de que se produzcan fallos de envío de
los mensajes. Cuando se producen fallos, al tratarse de
información importante, se requiere el envío de la
información. De este modo, cuando un nodo envía un
mensaje, no lo puede eliminar en el acto pues puede que se
produzcan errores en la

recepción, se debería esperar a una
confirmación de llegada por parte del nodo
destino.

2.2.3.4 Conexiones

Las conexiones entre los nodos de una red
tolerante a retrasos pueden ser:

§ Casuales:

Cuando un nodo detecta otro nodo con el cual se quiere
comunicar, se comunica. Este tipo de conexión es posible
siempre que el nodo emisor sepa que el receptor está
activo y es capaz de hacer una recepción de los mensajes.
El lado positivo de este tipo de transmisión es que el
emisor puede enviar cuando cree oportuno puesto que confía
en la disponibilidad del receptor. Esto hace que el emisor se
active únicamente cuando le convenga transmitir una
información. Cuando un nodo se encuentra con otro que
quiere hablar, hablan.

§ Predichas:

Los nodos, al tener una disponibilidad presumiblemente
intermitente, no pueden emitir en cualquier momento por la
posible indisponibilidad del receptor. Los nodos se encuentran en
movimiento, orbitando o sobre la superficie de un planeta. Si
conocemos los ciclos de estos movimientos, se puede calcular la
disponibilidad de estos nodos de modo que sólo se activen
cuando predigan la disponibilidad de un nodo así como la
probabilidad de transmisión de éste.

§ Programadas:

Básicamente como el caso anterior, con la
diferencia es que no se basan en predicción. En este caso
se sincronizan los envíos y recepción de los datos
entre los nodos.

§ Bajo demanda:

En este caso en concreto, ambos nodos están
operativos para el envío y la recepción de los
datos. Sin embargo, se establece la activación de un nodo
por parte de otro del sistema de transmisión de mensajes.
Entonces, en este caso las transmisiones se producen bajo demanda
de algún nodo interesado.

2.2.3.5 Bundle layer

Las redes DTN implementan una arquitectura de
conmutación de mensajes con almacenamiento y
reenvío. Esto, lo consiguen introducción una nueva
capa a la arquitectura de capas que ya conocemos. Introducen un
nuevo protocolo, el "bundle layer" o capa de mensaje entre la
capa de aplicación y la capa de transporte.

El objetivo principal de esta nueva capa es el de unir
distintas redes de naturaleza heterogénea entre sí.
De esta manera hace que las capas inferiores a esta nueva capa,
que usan protocolos específicos dependiendo de donde se
encuentren esas redes, no sean un impedimento para la
comunicación de las aplicaciones, situadas en la capa
superior del nuevo protocolo introducido. Lo que hace es dotar a
las comunicaciones entre distintas redes de independencia de las
capas inferiores.

El nuevo protocolo introducido es común para
todas las redes que forman las redes DTN. Esta capa, es la que
almacena y reenvía los mensajes entre los distintos nodos
de las redes. Por el contrario, los protocolos de transporte, de
red, de enlace y físico, son independientes de una
región a otra. Esto es debido, como comentado
anteriormente a las distintas características del entorno
donde se establecen estas redes.

Monografias.com

Los mensajes por lo tanto
consistirán en (1) los datos de la aplicación de
usuario, (2) la información de control para
aplicación de destino proporcionada por la
aplicación de origen y (3) una cabecera, propia de este
nuevo protocolo e insertada por el mismo.

La nueva capa es capaz de fragmentar los mensajes, igual
que como actúa IP. En este caso, será el mismo
protocolo en encargado de reensamblarlos cuando sea
necesario.

2.2.3.6 Interactividad

Debido a la naturaleza de las comunicaciones, las largas
distancias, los retrasos introducidos, la alta tasa de errores,
hacen de la interactividad de la que disponemos con el protocolo
TCP, de un lujo del que es muy caro disponer en las
comunicaciones en redes DTN. De esta manera, estos viajes de ida
y vuelta entre los nodos inicial y final tardarían mucho
tiempo. Así, con el nuevo protocolo introducido, las
comunicaciones se harán con los mínimos viajes
posibles de ida y vuelta. Así, los "acknowledgements" del
receptor serán opcionales dependiendo de la QoS elegida. Y
esto, por supuesto, depende del tipo de conexión posible
entre los nodos.

2.2.3.7 Nodos

En las redes DTN existen tres tipos de nodos diferentes.
Los nodos pueden actuar como:

§ Hosts:

Los host envían o reciben "bundles", pero no los
reenvían. No actúan como nodos intermedios. Son
emisores o receptores.

§ Routers:

Reenvían "bundles" en una misma región
DTN. Requieren almacenamiento persistente para poder hacer
transmisiones bajo custodia y poder almacenar los mensajes hasta
que el siguiente nodo en la ruta esté
disponible.

§ Gateways:

Reenvían "bundles" entre distintas regiones DTN.
Opcionalmente pueden actuar como host. Los Gateways deben
soportar también almacenamiento persistente para
envíos de tipo "store & forward"
(almacenamiento-envío). Los "Gateways", a su vez, son
capaces de de hacer conversiones en las capas más bajas de
protocolo entre las regiones entre las que se encuentra.
Así, hará compatible los mensajes entre distintas
regiones DTN que no tienen porque ser
homogéneas.

2.2.3.8 Transferencias bajo custodia

Las DTNs deben soportar conexiones entre dos nodos. La
capacidad de conexión nodo a nodo se debe implementar en
la "bundle layer". La "bundle layer" soportará entonces
las retransmisiones nodo a nodo en términos de
transferencias bajo custodia.

Las transferencias bajo custodia son concertadas entre
las "bundle layers" de los sucesivos nodos cuando la
aplicación inicia la conexión. Cuando un nodo
quiere enviar, la "bundle layer" de este nodo comprueba si el
siguiente nodo en la ruta soporta transferencias

Monografias.com

Monografias.combajo
custodia. De ser así, envía el mensaje y, cuando
recibe una confirmación de que se ha entregado
correctamente el mensaje, el nodo emisor borra entonces su copia
del mensaje. Es entonces quien ha recibido el mensaje el
responsable de

enviarlo al siguiente nodo. Operando de la misma forma,
el mensaje llegará al nodo destino.

Las transferencias bajo custodia no aseguran un servicio
garantizado punto a punto. Los mensajes contienen TTLs que deben
cumplir. Debido a los grandes retrasos que se
producen,

cuando se forman los mensajes y se les asigna TTL, se
tienen en cuenta las distintas situaciones por las que
podría pasar el mensaje.

2.2.3.9 Routing DTN

En este tipo de redes todos los nodos los nodos
implementan la"bundle layer" y la capa de
transporte.

Los gateways en DTN pueden soportar distintos conjuntos
de protocolos de transporte, red, enlace y físico, tal y
como se muestra en la figura con el fin de poder enviar mensajes
entre regiones con distintas configuraciones.

La principal diferencia en redes DTN con respecto a las
redes tradicionales que conocemos con respecto al "routing"
reside en los Gateways. Los Gateways son capaces de
compatibilizar mensajes

Monografias.com

pertenecientes a distintas regiones, mediante la
transformación de los mensajes accediendo a los protocolos
por debajo de la capa de mensaje (propios de cada región)
como podemos ver en la figura anterior.

2.2.3.10 Regiones

Una DTN es una red de redes. Cada una de las redes
conforma una región con unas características de
comunicación homogéneas.

Monografias.com

Las regiones van a tener su propio identificador. Estos
identificadores van a ser comúnmente conocidos por los
nodos

de la red y, el identificador de cada nodo estará
formado por el identificador propio de la red junto con otro
identificador que lo diferenciará dentro de la propia red.
Los Gateways serán los únicos dispositivos que
poseerán dos direcciones ya que forman parte de dos o
más regiones simultáneamente.

2.2.3.11 Seguridad

En redes DTN aparte de autenticar a los usuarios y la
integridad de los mensajes, se autentica también los nodos
por los que va atravesando el mensaje desde un origen hasta
llegar a un destino. De esta manera se evita el tráfico
ilegal y se conservan recursos.

En las redes DTN tanto los mensajes como los nodos
tienen su propio par de claves (pública y privada)
así como su propio certificado. En los certificados se
indica el tipo de calidad de servicio requerida para los
envíos de los mensajes.

Cuando un emisor quiere enviar un mensaje, lo firman con
su clave privada. Los receptores, usando la clave pública
pueden verificar la

Monografias.com

autenticidad del mensaje, la integridad y la clase de
servicio requerida.

2.2.3.12 Ejemplo de
comunicación

Por ejemplo, vamos a ver cómo sería una
comunicación desde la Tierra hasta Marte. Iremos viendo
cómo se va transmitiendo el mensaje de nodo a
nodo.

Las direcciones de origen y destino van a
ser las siguientes:

{earth.sol.int, src.jpl.nasa.gov:6769} y
{mars.sol.int, dst.jpl.nasa.gov:6769} respectivamente.

Cuando se crea el mensaje, a parte de la
dirección de origen y destino, también se
especifica la firma, la

Monografias.com

clase de servicio y los datos de usuario.

Primero creamos el mensaje: la bundle layer comprueba la
firma de la fuente de los datos, crea un mensaje y añade
la cabecera y su firma. Seguidamente almacena el mensaje hasta
que pueda ser enviado.

Posteriormente a la creación del mensaje, nos
disponemos a la transmisión del mismo. Es el mismo
protocolo de mensaje quien consulta su tabla de rutas y determina
que el

Gateway de la Tierra se encuentra en la dirección
{earth.sol.int, ipngw1.jpl.nasa.gov:6769}. Este es el siguiente
nodo en la trayectoria del paquete hacia el destino.
También averigua que el protocolo de transporte que debe
usar es TCP.

Es el momento de transmitir el mensaje. El emisor
envía una copia del mensaje al Gateway de la Tierra usando
TCP como protocolo de transporte. Entonces el emisor queda a la
espera de recibir la aceptación por parte del Gateway del
mensaje. El mensaje se transmite bajo custodia.

Al recibir el Gateway de la tierra el mensaje, cierra la
conexión TCP establecida. Esto es así ya que el
protocolo de transporte utilizado en la comunicación hacia
este nodo ha sido TCP. El Gateway verifica la firma del emisor
así como la clase de servicio establecida. Cuando se
verifica la validez del mensaje, el protocolo de mensaje cambia
la firma. Aun así, conserva la firma del creador del
mensaje. Y ahora almacena el mensaje en sus dispositivos de
almacenamiento.

Monografias.com

Monografias.comEl Gateway
de la Tierra, consulta la tabla de rutas y determina la
dirección siguiente: {mars.sol.int,
ipngw2.jpl.nasa.mars.org:67

69}. Consulta también

cuando este nodo estará disponible para enviarle
el mensaje sólo cuando el receptor sea capaz de recibirlo.
Entonces confirma el TTL y si puede enviar el mensaje, y entonces
envía un mensaje al nodo de quien recibió el
mensaje a transmitir comunicándole que ya puede borrar su
copia del mensaje, que ya se encarga él de
enviarlo.

Cuando llegue la hora establecida en la cual el receptor
vaya a estar disponible, se envía el mensaje.

Monografias.comCuando el
mensaje llega al Gateway de Marte, aparte de hacer los pasos
descritos anteriormente, descubre que el protocolo de transporte
utilizado en la

nueva región es TCP. De manera que el Gateway
prepara el mensaje para una conexión TCP con el siguiente
nodo, que ya será el destino. Y finalmente es enviado al
destino.

El nodo destino recibe el mensaje vía una
conexión TCP. El destino entonces cierra la
conexión y comprueba la firma del nodo
anterior.

Monografias.com

Almacena el mensaje, acepta la custodia e informa al
Gateway de que ya puede borrar su copia.

Para finalizar, la capa de mensaje invoca a la
aplicación por encima de él a quien va destinado el
mensaje. Dependiendo de la aplicación, opcionalmente puede
generar "acknowledgements" dirigidos al emisor del mensaje para
confirmar la recepción.

2.2.4 ESPECIFICACION DE PROTOCOLOS
ACTUALES.

Los protocolos existentes hasta a fecha y
que se comparan a gran escala con TCP/IP respectivamente
son:

2.2.4.1 Bundle Protocol (RFC 5050)

Intercambio de mensajes, puede ser una buena
traducción de "bundles" según los investigadores
del DTNRG. Acá queremos dar una breve
especificación tomada de la Referencia 5050 de la
IETF.

Las DTN son utilizadas en ambientes realmente cambiantes
con una conectividad intermitente, largos y/o variables retrasos
y una tasa alta de errores en la transferencia de bits. Para
proveer servicios en las DTN, el BP se establece sobre la capa de
aplicación para formar una red de almacenamiento y
envío con el fin de que los datos lleguen al otro punto de
conexión. Algunas de las capacidades de este protocolo
son:

Monografias.comRetransmisión basada en
custodia.

Monografias.comCapacidad
de sobrellevar conectividad intermitente.

Capacidad de conexiones oportunistas, predictadas y
planeadas

(con el fin de prepara una conexión
continua).

Este es un protocolo experimental, producido en el DTNRG
y alimentado por consenso de muchos contribuyentes al
grupo.

Monografias.com

2.2.4.2 Licklider Transmission Protocol
(LTP) (RFC en proceso)

Es un protocolo de retransmisión
para una comunicación segura entre dos puntos en un
ambiente de tolerancia a retrasos. Nombrado en honor a Joseph
Carl Robnett Licklider, científico estadounidense primero
en articular

la idea de una red de computadoras intergaláctica
en sus inicios en 1962, Vint Cerf tuvo la iniciativa de este
nombre. Por otro lado, también se la designado como un
protocolo de convergencia para los pilares interplanetarios de
una red tolerante a retrasos "end-to-end". Este
protocolo se puede compara para su compresión
con el protocolo TCP.

El funcionamiento de este protocolo se fundamente en la
transmisión de un bloque de datos dividido en segmentos.
Cuando estos segmentos son transmitimos, algunos son
señalados como "checkpoints". Cuando un "checkpoint" es
recibido, el receptor retorna un reporte de recepción
acumulativa. Si los puntos de revisión no son
explícitos los datos se vuelven a reenviar por medio de un
"timer" que periódicamente revisa la recepción de
puntos de revisión.

Dentro de las habilidades de este protocolo
se destacan: Tolera la interrupción de los enlaces sin
pérdida de datos.

Designado para imponer un mínimo recargo en
enlaces de baja capacidad y/o enlaces
asimétricos.

Los segmentos pueden ser expandidos
(seguridad de código).

Retransmisión acelerada:
múltiples revisión de estado por bloque
transmitido.

Certeza parcial: los puntos de
revisión y retransmisión se pueden habilitar
solamente por las primeros N bytes de un bloque.

Ultimos
avances

El proyecto original conocido como Interplanet se ha
expandido y crecido sustancialmente y se ha re-fundamentado en
una arquitectura más global y con énfasis en las
DTN, actualmente en el sitio web del DTNRG (http://www.dtnrg.org)
existen accesos a artículos e investigaciones en los
cuales se discute la situación pasada y actual de las
aplicaciones de las DTN y los problemas que presentan en las
redes terrestres. Por otro lado, es importante resaltar que la
arquitectura de las DTN y el Bundle Protocol están
documentados como estándares de referencia del
IET.

Actualmente, está iniciando lo que parece ser una
actividad muy seria para implementar esta tecnología antes
mencionada en comunicaciones de vuelos espaciales, tal y como lo
imaginaron cuando el proyecto empezó en 1998.

En adición a esto, también se tiene
proyectado la instalación de esta tecnología a
bordo de la Estación Espacial Internacional (ISS),
está pendiente aún una discusión más
profunda. También se está trabajando en un plan
pruebas en Octubre para la nave "Deep Impact", cuyos datos no se
sabrán hasta dentro de unos meses.

Actualmente, el LTP está en proceso de
inscripción como una norma del RFC y el protocolo se
encuentra en perfeccionamiento y Steven Farrel está
trabajando en su implementación.

Conclusiones y
reflexiones

Interplanet es un proyecto con el cual se verá
beneficiada toda la humanidad, debido que se podrán
estudiar datos enviados desde Marte y poder validar aún
más la posibilidad de que ese planeta sea habitable
algún día.

La investigación científica se verá
fortalecida, pues la facilidad de analizar datos más
confiables y de una manera más rápida,
imágenes nítidas y confiables.

El desarrollo de este proyecto y específicamente
de los protocolos, modificará ciertos estándares
conocidos como el modelo OSI, pues ha aparecido otra capa que
deberá ser agregada a los estándares.

La posibilidad de enviar y recibir datos entre redes
tolerantes a retrasos, ayudará a que la conectividad
incluso aquí en la tierra se vea sustancialmente mejorado,
pues ya no importará el medio y los retrasos.

Es un proyecto que todavía le falta mucho por
terminar, por lo que está aún pendiente la
culminación de los protocolos BP y LTP, pues están
en un periodo experimental.

La importancia fundamental radica en que los datos
lleguen legibles y completos, sin que estos sean afectados, por
ambientes completamente heterogéneos.

Este proyecto desprende mucha documentación que
puede ser aprovechada para artículos, desarrollo y
proyectos que integren los protocolos antes
mencionados.

Los países podrán
tomar ventaja de esta tecnología al realizar alianzas de
investigación, tanto académicas como
empresariales.

Referencias

Estudio de la Interplanet. En:
http://www.ipnsig.org/aboutstudy.htm. Visitado el:
23/3/2008

Internet Interplanetario. En:
http://en.wikipedia.org/wiki/Interplanetary_Internet

Visitado el: 23/3/2008

NASA. En: http://es.wikipedia.org/wiki/NASA
Visitado el: 23/3/2008

Gobierno del Internet. En:
http://www.wgig.org/docs/SociedadNorte- CommentApril.doc Visitado
el: 23/3/2008

Internet Research Task Force Research Group.
(DTNRG). En:

http://www.dtnrg.org.Visitado el: 26/3/2008

DTN Architecture Document: En:
http://tools.ietf.org/group/irtf/draft-irtf-dtnrg- arch-08.txt.
Visitado el: 26/3/2008

Delay-Tolerant Networking: An Approach to
Interplanetary Internet: Scott

Burleigh, Adrian Hooke, and Leigh Torgerson, Jet
Propulsion Laboratory

En: http://www.dtnrg.org/papers/ieee-comsoc-article.pdf.
Visitado el: 26/3/2008

InterPlaNetary Internet: state-of-the-art and
research challenges: Ian F. Akyildiz, Chao Chen, Jian Fang,
Weilian Su. En:
http://www.ece.gatech.edu/research/labs/bwn/space.pdf. Visitado
el: 26/3/2008

Technologies for the InterPlanetary Network. Dr.
James R. Lesh Chief Technologist & Manager, Technology Office
Interplanetary Network and Information Systems Directorate Jet
Propulsion Laboratory California Institute of
Technology

En:
http://www.ipnsig.org/reports/Lesh-IPN-Technologies.pdf. Visitado
el:

26/3/2008.

TOWARDS AN INTERPLANETARY INTERNET: A PROPOSED
STRATEGY FOR STANDARDIZATION. Adrian J. Hooke Jet Propulsion
Laboratory, California Institute of Technology Pasadena,
California, USA. En:
http://www.ipnsig.org/reports/SpaceOps-Oct-2002.pdf. Visitado el:
28/3/2008

Delay-Tolerant Networks (DTNs): Forrest Warthman
Warthman Associates

En: http://ipnsig.org/reports/DTN_Tutorial11.pdf.
Visitado el: 28/3/2008

Borrador de la especificación RFC
del IPN
. En: http://ipnsig.org/reports/draft-
irtf-ipnrg-arch-01.txt. Visitado el: 28/3/2008

Agradecimiento especial
para:

Scott Burleigh del Laboratorio de
Propulsión a Chorro de la NASA. Steven Farrell del Grupo
de Investigación de la Red Interplanetaria

Special thanks
to:

Scott Burleigh of the Jet Propulsion Lab
(JPL) – NASA.

Steven Farrell of the IPNSIG (Interplanet
Special Interest Group).

 

Autor:

Edgar A. Vega Briceño

Ingeniero en Informática de la Universidad
Nacional de Costa Rica y actualmente ostentando el grado de
Máster en Administración de las Tecnologías
de Información y Comunicación en la misma
Universidad. Profesor universitario e investigador en temas
relacionados con TI.

Skype-ID: edgar.vega.cr

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter